查看原文
其他

【金猿技术展】高性能NLP序列推理实践——Lightseq

火山引擎 数据猿 2021-09-08

火山引擎技术

该技术由火山引擎申报并参与“数据猿年度金猿策划活动——2020大数据产业创新技术突破榜榜单及奖项”评选。

大数据产业创新服务媒体

——聚焦数据 · 改变商业




自2017年Google提出Transformer模型,以其为基础的特征提取方法,推动了众多自然语言处理任务能力水平的提升,与此同时,模型的参数量和推理延迟也呈现近乎指数增长。以机器翻译为例,目前WMT比赛中SOTA模型已经达到了50层以上。


目前主流深度学习框架,主要面临两大问题:一是翻译时间太长,时长直接影响用户体验;二是单卡QPS(每秒查询率)太低,导致客户服务成本过高。


LightSeq 团队对以Transformer为基础的序列特征提取器(Encoder)和自回归的序列解码器(Decoder)做了深度优化。成为业界第一款完整支持Transformer、GPT等多种模型高速推理的开源引擎。


目前火山翻译平均每日,处理请求超过2亿,服务用户超过2亿,覆盖100个国家和地区。LightSeq 帮助火山翻译将服务延迟降低十倍以上,平均响应时间控制在百毫秒内,大幅提升了用户体验及云服务成本。同时,LightSeq还可以应用于自动问答、智能写作、对话回复生成等众多场景,大大提高线上模型推理速度,改善用户的使用体验,降低企业的运营服务成本。



技术说明


1. 性能非常高。LightSeq是业界最早开源的序列生成推理引擎,推理速度非常快。例如在翻译任务上,LightSeq相比于Tensorflow实现最多可以达到14倍的加速。同时领先目前其他开源序列推理引擎,例如最多可比Faster Transformer快1.4倍。 



2. 支持模型功能多。LightSeq支持BERT、GPT、Transformer、VAE 等众多模型,同时支持beam search、diverse beam search、sampling等多种解码方式。 



3. 简单易用。无缝衔接Tensorflow、PyTorch等深度学习框架。LightSeq通过定义模型协议,支持各种深度学习框架训练好的模型灵活导入。同时包含了开箱即用的端到端模型服务,即在不需要写一行代码的情况下部署高速模型推理,同时也灵活支持多层次复用。


开发团队


带队负责人:王晓晖


2017年硕士毕业于上海交通大学计算机系,目前就职于字节跳动AI-LAB,担任NLP算法工程师。主要关注领域包括:机器翻译,高性能计算,模型压缩,模型编译优化等。


其他重要成员:


熊鹰,字节跳动AI Lab,算法工程师

韦阳,字节跳动AI Lab,实习算法工程师


隶属机构:火山引擎


火山引擎是字节跳动旗下的数字服务与智能科技品牌,基于公司服务数亿用户的大数据、人工智能和基础服务等技术能力,为企业提供系统化的全链路解决方案,助力企业务实地创新,给企业带来持续、快速增长。


相关评价


LightSeq目前已获得三项专利,且已经开源。


GitHub项目地址:

https://github.com/bytedance/lightseq


提示:了解更多相关内容,点击文末左下角阅读原文”链接可直达该机构官网。

—— / END / ——

以下内容更精彩



2020年度产业图谱: 2020中国数据智能产业图谱1.0版 从产业图谱看中国2020年数据智能行业的发展态势2020数据猿《#榜样的力量#寻找新冠战“疫”,中国数据智能产业先锋力量》大型公益主题策划活动:

●《新冠战“疫”——中国数据智能产业最具社会责任感企业》榜

●《看过大佬们发的朋友圈之后,我相信:明天会更好,明年定会春暖花开》条漫

2019数据猿年度金猿榜:

2019大数据产业趋势人物榜TOP 10

●2019大数据产业创新服务企业榜TOP 15

●2019大数据产业创新服务产品榜TOP 40

: . Video Mini Program Like ,轻点两下取消赞 Wow ,轻点两下取消在看

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存